出生的机器是量子启发的生成模型,可利用量子状态的概率性质。在这里,我们提出了一种称为多体局部(MBL)隐藏的机器的新体系结构,该机器同时使用MBL动力学和隐藏单元作为学习资源。从理论上讲,我们证明,MBL出生的机器比古典模型具有更具表现力的能力,而隐藏单元的引入则增强了其学习能力。我们从数值上证明,MBL隐藏的机器能够学习一个玩具数据集,该数据集由MNIST手写数字的模式,从量子多体态获得的量子数据以及非本地奇偶校验数据组成。为了理解学习的机制,我们跟踪了诸如学习过程中冯·诺伊曼纠缠熵和锤击距离之类的物理量,并比较MBL,Thermal和Anderson局部化阶段中的学习成果。我们表明,MBL阶段的优越学习能力重要地依赖于本地化和相互作用。我们的体系结构和算法提供了利用量子多体系统作为学习资源的新颖策略,并在量子系统中揭示了障碍,互动和学习之间的强大联系。
translated by 谷歌翻译
对状态$ \ lvert \ psi \ rangle $的对称性是单一操作员,其中$ \ lvert \ psi \ rangle $是特征者。当$ \ lvert \ psi \ rangle $是黑盒甲骨文提供的未知状态时,该州的对称性可用于表征它,并且通常会降级有关$ \ lvert \ psi \ rangle $的许多所需信息。在本文中,我们开发了一种变性杂种量子式学习方案,以系统地探测$ \ lvert \ psi \ rangle $的对称性,而没有对状态的先验假设。此过程可用于同时学习各种对称性。为了避免重新学习已经知道的对称性,我们引入了一种具有经典深神经网的交互式协议。因此,经典的网络针对重复的发现进行了正规化,并允许我们的算法通过发现的所有可能对称性终止经验。我们的方案可以平均通过非本地交换门有效地实施;我们还提供了仅使用本地操作的效率较低的算法,这可能更适合当前的噪声量子设备。我们展示了我们对代表国家的算法。
translated by 谷歌翻译
在本文中,我们提出了一个样本复杂性,以从嘈杂的样本中学习单纯形。给出了$ n $的数据集,其中包括i.i.d.样品从$ \ mathbb {r}^k $中的未知任意单纯形上的均匀分布中得出,其中假定样品被任意幅度的加性高斯噪声损坏。我们提出了一种策略,该策略可以输出一个单纯概率,总变化距离为$ \ epsilon + o \ left(\ mathrm {snr}^{ - 1} \ right)$从true Simplex中,对于任何$ \ Epsilon> 0 $。我们证明,要接近True Simplex,就足以拥有$ n \ ge \ tilde {o} \ left(k^2/\ epsilon^2 \ right)$ samples。在这里,SNR代表信噪比,可以看作是单纯形直径与噪声的标准偏差的比率。我们的证明是基于样品压缩技术的最新进步,这些进步已经显示出在高维高斯混合模型中的密度估计的紧密范围方面的承诺。
translated by 谷歌翻译
随着世界人口的增加,必须修改粮食资源,以提高生产力,抵抗力和可靠性。小麦是世界上最重要的食品资源之一,主要是因为各种基于小麦的产品。小麦作物受到三种主要疾病的威胁,这些疾病会导致大量的农作物产量损害。这些疾病可以通过在正确的时间使用农药来消除。尽管手动喷洒农药的任务是繁重且昂贵的,但农业机器人技术可以通过提高速度和减少化学物质的量来帮助农民。在这项工作中,已经在无人驾驶飞机上实现了一个智能自主系统,以自动监测小麦田的任务。首先,一种基于图像的深度学习方法用于检测和分类感染了疾病的小麦植物。为了找到最佳方法,已经研究了不同的方法。由于缺乏公共小麦滴定数据集,因此已经创建了自定义数据集。其次,使用机器人操作系统和凉亭环境中的仿真提出了有效的映射和导航系统。 2D同时定位和映射算法用于借助基于边境的探索方法自动映射工作空间。
translated by 谷歌翻译
预防和无线网络检测入侵和攻击已成为一个重要而严峻​​的挑战。在另一方面,由于无线节点的资源有限,使用监测在无线传感器网络中的永久监视节点,以防止和检测这种类型的网络的入侵和攻击的是几乎不存在。因此,今天来克服这个问题的解决方案是远程控制系统的讨论,并已成为在各个领域感兴趣的话题之一。远程监控的无线传感器网络节点的性能和行为,除了在网络内检测恶意节点,也可以在以后的预测恶意节点的行为。在目前的研究,采用基于鲸优化算法(WOA)和遗传算法(GA)和基于样本的分类的组合特征选择一个网络入侵检测系统,提出了在这项研究中,标准的数据集KDDCUP1999已经使用在这关系到健康的节点和类型的恶意节点的特性被存储基础网络中的攻击类型。该方法是基于特征选择的基础上的精度标准方面鲸优化算法和遗传算法KNN分类相结合,具有比其他以前的方法更好的结果。在此基础上,它可以说是鲸鱼优化算法和遗传算法提取了相关的类标签井的特征和KNN方法已经能够很好地检测出在无线网络的入侵检测数据集的不当行为节点。
translated by 谷歌翻译
本文通过将深度递归编码器添加到具有深递归编码器(BERT-DRE)的伯爵,提供了一种深度神经阵列匹配(NLSM)。我们对模型行为的分析表明,BERT仍未捕获文本的全部复杂性,因此伯特顶部应用了一个深递归编码器。具有残留连接的三个Bi-LSTM层用于设计递归编码器,并在此编码器顶部使用注意模块。为了获得最终的载体,使用由平均值和最大池组成的池化层。我们在四个基准,SNLI,贝尔船,Multinli,Scitail和新的波斯宗教问题数据集上进行模型。本文侧重于改善NLSM任务中的BERT结果。在这方面,进行BERT-DRE和BERT之间的比较,并且显示在所有情况下,BERT-DRE优于伯特。宗教数据集的BERT算法实现了89.70%的精度,并且BERT-DRE架构使用相同的数据集提高了90.29%。
translated by 谷歌翻译
本文旨在提出和理论上分析一种新的分布式方案,用于稀疏线性回归和特征选择。主要目标是根据来自未知稀疏线性模型的嘈杂观测来了解高维数据集的几个因果特征。但是,在$ \ mathbb {r} ^ p $中包含$ n $ data样本的假定培训集已经在大型网络上分发,以通过极低的带宽链路连接的$ n $客户端。此外,我们考虑渐近配置$ 1 \ ll n \ ll n \ ll p $。为了从整个数据集推断出原因尺寸,我们提出了一种简单但有效的网络中的信息共享方法。在这方面,我们理论上表明,可以可靠地恢复真正的因果特征,其中o的$ o o \ lex(n \ log p \ light)$跨越网络。与将所有样本传输到单个节点(集中式场景)的微小情况相比,这产生了显着降低的通信成本,该沟通成本是需要$ o \ lef(np \右)$传输。诸如ADMM的更复杂的方案仍然具有$ o ox的通信复杂性(NP \右)$。令人惊讶的是,我们的样本复杂性被证明是与每个节点中固定性能测量的最佳集中方法的相同(最多常数因素),而NA \“{i} ve分散技术的最佳集中方法以$线性地增长N $。本文的理论担保是基于Javanmard等人的最近脱叠套索的分析框架。(2019),并由几个在合成和现实世界数据集上进行的几台计算机实验支持。
translated by 谷歌翻译
Deep neural networks excel at learning the training data, but often provide incorrect and confident predictions when evaluated on slightly different test examples. This includes distribution shifts, outliers, and adversarial examples. To address these issues, we propose Manifold Mixup, a simple regularizer that encourages neural networks to predict less confidently on interpolations of hidden representations. Manifold Mixup leverages semantic interpolations as additional training signal, obtaining neural networks with smoother decision boundaries at multiple levels of representation. As a result, neural networks trained with Manifold Mixup learn class-representations with fewer directions of variance. We prove theory on why this flattening happens under ideal conditions, validate it on practical situations, and connect it to previous works on information theory and generalization. In spite of incurring no significant computation and being implemented in a few lines of code, Manifold Mixup improves strong baselines in supervised learning, robustness to single-step adversarial attacks, and test log-likelihood.
translated by 谷歌翻译